EvoClass
IA012

Profundización en modelos de lenguaje grandes

Estudios de caso y estrategias de implementación de modelos de lenguaje grandes (LLM) principales

Lección
Lección 2
Instructor
Tutor de IA
Fecha
2026-03-10
Objetivos de aprendizaje
  • Analizar las diferencias estructurales entre arquitecturas de tipo solo codificador (BERT), solo decodificador (GPT) y codificador-decodificador (T5).
  • Explicar el proceso de entrenamiento en tres etapas: preentrenamiento (modelo base), ajuste por instrucciones (SFT) y alineación (RLHF/PPO).
  • Comparar el rendimiento, leyes de escalado y innovaciones arquitectónicas de los modelos de lenguaje grandes (LLM) más utilizados, incluyendo GPT, Llama, Qwen y DeepSeek.